Материалы международной научно-практической конференции «Искусственный интеллект и право: опыт Республики Казахстан и зарубежных стран» (24 мая 2024 года)

Предыдущая страница

 

2. Автоматизация мониторинга законопроектной деятельности в Минюсте России

Во исполнение ключевых задач Минюста России на 2023 год, Министерством совместно с ФБУ НЦПИ при Минюсте России (далее - НЦПИ) была организована разработка специального программного обеспечения модуля анализа законопроектов, проектов постановлений Правительства Российской Федерации и проектов ведомственных нормативных правовых актов. Модуль анализа нормативных правовых актов предназначен для поддержки процесса проведения проверки законопроектов, проектов постановлений Правительства Российской Федерации и проектов нормативных правовых актов федеральных органов исполнительной власти. Модуль осуществляет автоматическую проверку пакетов документов с применением современных технологий интеллектуальной обработки текстовой информации, что позволяет выявлять ошибки и недочёты в представленных проектах, снижает трудозатраты на контроль прохождения предусмотренных законодательством процедур.

Модуль анализа нормативных правовых актов создан на основе тиражного программного продукта - «Preferentum.Class» «Интеллектуальный классификатор текстов» разработки ООО «Преферентум» (Зарегистрирован за № 5926 в Едином реестре российских программ для электронных вычислительных машин и баз данных, Свидетельство о государственной регистрации программы для ЭВМ № 2018616406 от 01.06.2018). Программные компоненты и библиотеки, входящие в состав «Интеллектуального классификатора текстов», используются для морфологического, синтаксического и семантического анализа текста на естественном языке, классификации документов, выделения в текстах законопроектов, ведомственных нормативных правовых актов и постановлений Правительства Российской Федерации именованных сущностей (названий организаций, органов государственной власти, фамилий, имён и отчеств должностных лиц, названий должностей, дат, ссылок на нормативные правовые акты, структурные элементы и реквизиты нормативных правовых актов).

В состав Модуля анализа нормативных правовых актов входят три набора правил, реализованных в программных библиотеках, осуществляющих проверки законопроектов, постановлений Правительства Российской Федерации и ведомственных нормативных правовых актов. Также для работы ряда правил, проверяющих корректность ссылок на нормативные правовые акты и источники их опубликования, используется индексный массив - пополняемое хранилище текстов нормативных правовых актов. Пополнение хранилища осуществляется путём импорта текстов нормативных правовых актов, экспортируемых из справочных правовых систем.

Средствами хранилища обеспечиваются:

- загрузка и полнотекстовое индексирование текстов нормативных правовых актов;

- автоматическое распознавание реквизитов, загружаемых нормативных правовых актов;

- автоматическая расстановка гипертекстовых ссылок на упоминаемые нормативные правовые акты;

- контекстный поиск (с поддержкой морфологии русского языка) и поиск по реквизитам нормативного правового акта.

В части развития дальнейшего плана построения искусственной нейронной сети (ИНС) «Классификатор обращений граждан» в НЦПИ были настроены и предоставлены требуемые технические ресурсы для их реализации.

В рамках этого плана для корректной работы ИНС «Классификатор обращений граждан», был разработан модуль транспортировки обращений граждан с официального сайта Минюста России. Набор сведений об обращении включал в себя данные и описание обращения гражданина в объеме, требуемом для корректной работы ИНС.

Автоматизация экспертизы проектов нормативных правовых актов осуществляется по следующим направлениям:

- рассматривается взаимосвязь проекта нормативного правового акта с существующим нормативным правовым полем (экспертиза осуществляется как правовая, так и антикоррупционная);

- поле для коррупции рассматривается не только внутри проекта нормативного правового акта, но и во взаимодействии с другими правовыми актами;

- правовую экспертизу проекта нормативного правового акта, безусловно, невозможно провести без учета всех взаимодействий.

Какие видятся противоречия при экспертизе проектов НПА:

Коллизии - столкновение, противоречие двух и более норм, претендующих на регулирование одних и тех же общественных отношений.

«Абсурд» - это коллизии, которые не исправляются годами.

Коллизиям и абсурдам можно придать характер технической проблемы - можно паспортизировать симптомы, источники и порождающие их ведомства и документы.

Также могут возникать коллизии «хорошего» нового проекта НПА со «старым» морально устаревшим наследием

Решение коллизий и абсурдов требует дальнейшей межведомственной квалификации и более глубокого их понимания.

Текущая законотворческая деятельность регуляторов может также порождать и новые абсурды.

В дальнейшем хотелось бы видеть автоматизацию экспертизы проектов НПА как:

- цифровую модель нормативного правового поля;

- семантический анализ;

- ИИ, GPT и аналоги предполагается использовать как инструмент поиска коллизий.

Необходимо широко применять семантический и системный анализ нормативных правовых актов и проектов нормативных правовых актов:

Семантический анализ - обработка естественного языка, этап в последовательности действий алгоритма автоматического понимания текстов, заключающийся в выделении семантических отношений, формировании семантического представления текстов.

Системный анализ - логически упорядоченная совокупность научных методов и практических приёмов многоаспектного многоуровневого исследования сложноорганизованных объектов путём их декомпозиции и последующего интегрирования (агрегирования).

 

Выводы:

Задача минимум - создать цифровую платформу мониторинга законопроектной деятельности Минюста России функционально и технологически связанную с информационными системами всех участников процессов

Задача максимум - создать цифрового двойника нормативного правового поля России, позволяющего проводить требуемые экспертизы и устранять правовые коллизии и бессистемность.

 

 

К ВОПРОСУ О ЮРИДИЧЕСКОЙ ОТВЕТСТВЕННОСТИ ЗА РЕШЕНИЯ И ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

 

Садыков Мухтар Бейбутович

Преподаватель кафедры общеюридических дисциплин

Института послевузовского образования Академии

правоохранительных органов при Генеральной прокуратуре

Республики Казахстан, магистр юриспруденции,

магистр государственного управления

 

Введение

В настоящее время нас окружает множество полезных приложений и устройств на основе искусственного интеллекта (далее - ИИ). Примером являются голосовые помощники в доме, навигаторы в автомобиле, помощники в маркетплейсах т.д.

Вместе с тем, как и обоюдоострый меч, ИИ несет в себе как преимущества, так и недостатки. Так как, ИИ стал неотъемлемой частью нашей современной жизни. Он влияет на все - от рекомендаций, которые мы получаем на стриминговых платформах, до решений, принимаемых в таких важных областях, как здравоохранение и финансы. Однако вопрос о том, кто в конечном итоге контролирует эту мощную технологию, остается без ответа. Кто отвечает за то, чтобы системы искусственного интеллекта использовались этично и с пользой? Кто отвечает за решения, принимаемые этими системами?

Данная статья не будет затрагивать технические аспекты ИИ, так как до сегодняшнего дня немало ученых в той или иной степени описали техническую составляющую ИИ в своих работах. Основной фокус исследования будет на рассмотрении возможных сценариев ответственности за решения и действия ИИ.

Материалы и методы.

Для всестороннего изучения темы, в исследовании используется метод качественного обзора литературы. Учитывая перспективный характер исследования, в него также включен метод этического и правового моделирования для рассмотрения потенциальных последствий в будущем.

В исследовании использованы различные источники: труды ученых, посвященных вопросам использования ИИ в образовании; исследования, подготовленные по заказу правительств зарубежных стран; сообщения всемирно известных технологических компаний; собственный взгляд автора статьи с учетом опыта работы по внедрению информационных систем в правоохранительных органах.

Дискуссия

Вопрос ответственности о юридической ответственности за решения и действия искусственного интеллекта наглядно можно рассмотреть на примере автономных транспортных средств.

Христоматийным является кейс, который приводит профессор Гарвардского университета Майкл Дж. Сэндел, который заставляет задуматься о том, что значит делать правильные вещи, когда нет однозначно хорошего выбора. Суть кейса состоит в том, что в процессе управления транспортным средством, Вы, являясь водителем, не можете его остановить и едете прямо на пять рабочих, стоящих на дороге. Внезапно, Вы осознаете, что рулевое управление в порядке и Вы можете выехать налево, но там стоит один человек. Дилемма состоит в том, что Вы должны принять решение о том, лишить ли жизни одного или пятерых человек. Первое, что приходит на ум: одна смерть - это, безусловно, трагедия, но будет спасено пять жизней. Ситуация меняется, если Вы осознаете, что этот один человек, стоящий слева от дороги, является Вашим близким родственником. В этой связи, выбор кажется между плохим и ужасным [С. 21-23, 1].

Вышеуказанный кейс наглядно иллюстрирует проблему того, каким образом требовать с транспортного средства, под управлением ИИ, принятия правильных решений, если человек не может принять во всех случаях правильное решение в неоднозначной ситуации.

Общество автомобильных инженеров (Society of Automotive Engineers) еще в 2014 году опубликовало свою широко используемую шестиуровневую шкалу для автономного вождения [2]. Спектр этих систем варьируется от полного контроля водителя над транспортным средством до полностью автономной машины [3].

От уровня 0 до уровня 2 подразумевается, что человек управляет автомобилем.

Автономные транспортные средства 5-го уровня могут работать в любом месте, где может находиться водитель-человек, в то время как транспортные средства 4-го уровня ограничены определенными зонами. Транспортные средства уровня 4 могут ездить полностью самостоятельно, но только в определенных зонах. Эти зоны могут быть ограничены географией, погодными условиями или другими факторами, но географическое положение обычно является основным ограничением.

В 2021 году Общество автомобильных инженеров уточнило Уровень 3, который остается аморфным. Новый стандарт определяет уровень 3 как «устойчивую и зависящую от конкретных условий производительность автоматизированной системы вождения (АСВ) всей системы динамической задачи вождения (ДЗВ) при обычной/нормальном функционировании с ожиданием того, что пользователь, готовый к резервному использованию ДЗВ, будет восприимчив к запросам АСВ о вмешательстве, а также к сбоям системы, связанным с производительностью ДЗВ, в других случаях, системы транспортного средства и будут реагировать соответствующим образом».

Эта оговорка уточняет, что системы уровня 3 не обязаны доводить автомобиль до безопасной остановки. Эта обязанность может быть возложена на водителя, который должен отреагировать в течение «достаточного», но неопределенного времени.

Это определение может оказаться невыполнимым на практике. Некоторые водители, скорее всего, уснут или займутся другими делами, которые не позволят им взять под контроль транспортное средство в течение эффективного времени. Отсутствие реакции может привести к столкновениям.

Возможно, тщательно откалиброванные системы мониторинга водителей могли бы решить эту проблему. Но необходимо провести дополнительные исследования времени реакции, которое позволит пользователю не садиться за руль, но при этом своевременно реагировать [4].

Что касается инцидентов под управлением систем ИИ, широкую известность приобрел случай Уолтера Хуанга, инженера Apple, погибшего после того, как его внедорожник Model X с включенной функцией Autopilot врезался в барьер на шоссе недалеко от Маунтин-Вью, Калифорния, в 2018 году.

Федеральное агентство установило, что система предупреждения о лобовом столкновении Tesla не подала сигнал тревоги, а система автоматического экстренного торможения не сработала, когда Model X Хуанга с включенным автопилотом на скорости врезалась в барьер на шоссе 101. Столкновению также могли способствовать нечеткая разметка полосы движения и расположение барьера (или гасителя столкновений).

В апреле 2024 года Компания Tesla урегулировала иск о причинении смерти по неосторожности, поданный семьей Уолтера Хуанга.

Мировое соглашение было заключено в понедельник, когда в одном из высших судов Калифорнии только начался отбор присяжных и судебное разбирательство. Урегулирование позволит Tesla избежать огласки доказательств и свидетельских показаний в деле, которое широко освещается.

Если бы присяжные признали Tesla ответственной (частично или полностью) за смерть Хуанга, этот процесс также создал бы прецедент по искам об ответственности за качество продукции, с которым производитель электромобилей сейчас повсеместно сталкивается, что облегчает другим истцам подачу исков или выигрыш по смежным вопросам [5].

 

Рис 1. Автокатастрофа автомобиля Tesla X с включенными функциями автопилота в 2018 году [5]

 

В 2023 году Водитель-испытатель Uber, находившийся за рулем одного из самоуправляемых автомобилей компании, когда тот сбил пешехода в 2018 году, признала себя виновной в создании опасности и была приговорена к трем годам испытательного срока под надзором.

Рафаэла Васкес смотрела телевизор на своем смартфоне в марте 2018 года, когда самоуправляемый автомобиль Uber совершил смертельный наезд на 49-летнюю Элейн Херцберг, которая переходила дорогу в Темпе, штат Аризона, согласно результатам расследования Национального совета по безопасности на транспорте. Смерть Херцберг стала первым известным смертельным случаем с участием полностью автономного автомобиля.

Судья Высшего суда Марикопы приговорил Рафаэлу Васкес к трем годам испытательного срока под надзором и постановил, что обвинение будет переведено в разряд проступка «после успешного отбытия наказания».

Как ранее сообщал CNN, нанятый Uber водитель, находившийся за рулем автомобиля, должен был следить за его работой и вмешиваться, если программное обеспечение автономного вождения даст сбой.

Однако расследование, проведенное Национальным советом по безопасности на транспорте в 2019 году, показало, что Васкес смотрела в сторону от дороги на протяжении более трети поездки. Комиссия пришла к выводу, что аварии можно было «избежать», если бы водитель была внимательна, а также пришла к выводу, что неадекватная культура безопасности в Uber способствовала аварии. По данным расследования, программное обеспечение самодвижущихся автомобилей компании не было рассчитано на то, что пешеходы могут переходить улицу вне пешеходных переходов [6].

При использовании ИИ в правоохранительной и судебной деятельности, также возможны ошибки. К примеру, при использовании ИИ и вынесении приговоров о высшей мере наказания и т.д. Здесь стоит учитывать и о возможных проблемах с предубеждением на стадии формирования датасета.

Д.В. Бахтеев [с. 121-122,7] в своей работе разделил позиции по определению ответственности ИИ по 10 группам:

1. Девиантные, отклоняющиеся как от норм права, так и от внутренних правил и алгоритмов поведения, действия систем искусственного интеллекта признаются обстоятельствами непреодолимой силы и потому не влекут какой-либо ответственности. Учитывая, что субъективный фактор в работе современных систем искусственного интеллекта всегда наличествует, реализация данной позиции представляется практически невероятной.

2. Формирование коллективной ответственности разработчиков интеллектуальных систем, в том числе путем создания фондов, за счет которых будет компенсирован причиненный системой вред.

3. Безусловная и безвиновная ответственность разработчика системы в случаях, когда внешние факторы риска при формировании ситуации причинения вреда исключаются.

4. Безусловная и безвиновная ответственность оператора системы в случаях, когда внутренние факторы риска при формировании ситуации причинения вреда исключаются либо если система выполняла прямые инструкции оператора.

5. Ограниченная безвиновная ответственность оператора или разработчика системы искусственного интеллекта.

6. Солидарная ответственность как оператора, так и разработчика. Альтернативой может быть также квазисолидарная ответственность: субъектом ответственности является только оператор, но впоследствии он может потребовать компенсации у разработчика. Именно такая ситуация складывается в настоящее время при причинении вреда автономными транспортными средствами: вред компенсирует водитель (оператор), суды при этом крайне неохотно привлекают к процессу производителя или продавца автомобиля, однако по завершении разбирательства оператор (водитель) чаще всего подает вполне успешный иск к разработчику (производителю транспортного средства).

7. Распределенная ответственность оператора и разработчика. Пропорции размера ответственности в этом случае должны быть установлены нормативно.

8. Субсидиарная ответственность оператора и разработчика. Основной причинитель вреда (основной должник) должен быть определен нормативно.

9. Определение правовых режимов наступления ответственности для отдельных классов интеллектуальных систем или даже для конкретных таких систем.

10. Личная ответственность системы искусственного интеллекта, разумеется, лишь при условии закрепления за такими системами статуса субъекта права.

Е. В. Пономарева приводит список признаков, по которым роботы (а значит, и системы искусственного интеллекта) не могут быть признаны субъектами права:

1. возможность (потенциальная или реальная) самостоятельно осуществлять субъективные права и юридические обязанности, совершать правомерные и неправомерные поступки;

2. способность нести юридическую ответственность;

3. способность принимать правовые решения, быть решающей инстанцией в праве;

4. наличие собственных правовых интересов, потребностей, правовых устремлений, притязаний;

5. имущественная обособленность [7] [8].

Как отмечено в отчете, подготовленном по заказу Правительства Соединенных Штатов Америки, человек, а не технология должна быть в центре внимания [9].

Заключение. Таким образом суммируя вышесказанное, на наш взгляд, следует четко различать решения, принимаемые системой ИИ в случае ее нормальной работы, от решений в результате неправильного обучения, сбоя или внешнего вмешательства. Есть несколько вариантов позиций для определения ответственности систем на основе технологий искусственного интеллекта.

Это коллективная ответственность разработчиков с созданием специальных фондов компенсации вреда пострадавшим от действий (бездействий) подобных систем, безусловная и безвиновная ответственность как разработчика, когда исключены внешние факторы риска, так и оператора системы, когда исключены внутренние факторы риска или система выполнила прямые команды оператора.

Также можно выделить солидарную ответственность оператора и разработчика и распределенную ответственность, где пропорции устанавливает государство. Вопрос о «личной» ответственности ИИ может быть поставлен лишь при наделении подобных систем правосубъектностью, что является вопросом отдаленного будущего.

При определении ответственности за решения и выводы систем ИИ могут возникнуть проблемы из-за различий в юрисдикциях. К примеру, в одной стране ответственность несет разработчик, который скрывается в другой стране, где подобная ответственность либо не предусмотрена, либо ее несет оператор системы.

В целом на данном этапе развития технологий искусственного интеллекта следует воспринимать данные системы как помощника в принятии решений, а не как замену человеку. Финальное решение всегда должен принимать человек.

 

Список использованных источников:

1. Sandel M.J. Justice: what's the right thing to do? //Farrar, Straus and Giroux. - 2010. - C. 320.

2. What are the different levels of self-driving vehicle? / Sunday times driving, 2022 [Электронный ресурс] - Режим доступа: https://www.driving.co.uk/car-clinic/sae-levels-autonomous-vehicle/ (Дата обращения: 12.05.2024).

3. Autonomous Driving Levels / Medium, 2017 [Электронный ресурс] - Режим доступа: https://medium.com/@ivankharlashkin/autonomous-driving-levels-b060c91ed53b (Дата обращения: 17.04.2024).

4. Automated Driving Classifications Are Updated, But Level 3 Remains Tricky / Forbes, 2021 [Электронный ресурс] - Режим доступа: https://www.forbes.com/sites/davidsilver/2021/05/10/sae-just-redefined-autonomy-but-level-3-is-still-tricky/ (Дата обращения: 23.03.2024).

5. Tesla settles lawsuit over Autopilot crash that killed Apple engineer / CNBC, 2024 [Электронный ресурс] - Режим доступа: https://www.cnbc.com/2024/04/08/tesla-settles-wrongful-death-lawsuit-over-fatal-2018-autopilot-crash.html#:~:text=Engleman%20%7C%20Via%20Reuters-,Tesla%20has%20settled%20a%20wrongful%20death%201awsuit%20brought%20by%20the,View%2C%20California%2C%20in%202018. (Дата обращения: 31.04.2024).

6. Uber self-driving car test driver pleads guilty to endangerment in pedestrian death case / CNN, 2023 [Электронный ресурс] - Режим доступа: https://edition.cnn.com/2023/07/29/business/uber-self-driving-car-death-guilty/index.html (Дата обращения: 23.03.2024).

7. Бахтеев Д.В. Искусственный интеллект: этико-правовые основы. Монография. - «Издательство «Проспект», 2021. - С. 176.

8. Пономарева Е. В. Субъекты и объекты права: теоретико-правовые проблемы разграничения: дис. ... канд. юрид. наук. Екатеринбург, 2019. С. 91- 104.

9. Cardona M. A. et al. Artificial intelligence and the future of teaching and learning: Insights and recommendations. - 2023.

 

 

ПРОЦЕСС НОРМОТВОРЧЕСТВА КАК ОБЪЕКТ ДЛЯ ПРИМЕНЕНИЯ ВОЗМОЖНОСТЕЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

 

Кайжакпарова Аида Бахытжановна

Главный научный сотрудник

Института законодательства и правовой информации

Республики Казахстан, к.ю.н., доцент

 

В последнее время во всех сферах деятельности все чаще можно встретить информацию о появлении новых реалий существования общества, призванных значительно облегчить выполнение определенных функций в профессиональной среде людям разных специальностей, в том числе и юристам. Более того, некоторые эксперты убеждены, что в ближайшее время из-за стремительно развивающихся технологий многие сферы жизни людей будут обеспечиваться и контролироваться технологиями и возможностями искусственного интеллекта [1]. На важность данной проблематики всегда обращают внимание и политики, и ученые, и эксперты-практики.

В настоящее время наше государство предпринимает активные шаги к расширению сфер применения искусственного интеллекта. Глава государства в 2021 году ставил такую задачу, как увеличение рынка технологичных решений, направленных на ИИ, беспроводных сетей на 35%30.

Изменение общественных отношений под влиянием процессов цифровизации, в т.ч. ИИ, выступает предпосылкой модернизации права. В своем Послании народу Казахстана от 2 сентября 2019 г. «Конструктивный общественный диалог - основа стабильности и процветания Казахстана» Глава государства К.К. Токаев отметил, что Правительству предстоит адаптировать законодательство под новые технологические явления: 5G, «умные города», большие данные, блокчейн, цифровые активы, новые цифровые финансовые инструменты.

Национальным планом развития РК до 2025 года31 предусматривается формирование законодательства, способствующего разработкам и инновациям таким образом, чтобы оно более гибко, эффективно и своевременно было адаптировано к разработке, испытанию и внедрению новых технологий (например, испытание беспилотных автомобилей, дронов для использования в промышленности, сфере услуг, пожаротушении и т.д.). Наряду с этим предполагается интегрировать города в единую транспортную сеть по лучевому принципу, в пределах которого запустить интегрированную инфраструктуру пригородного транспорта.

___________________________

30 Искусственный интеллект и новые технологии Казахстана могут получить $1 млрд [Электронный ресурс] / https:/Asm.kz/okolo-500-mlrd-tenge-planiraet-privlech-kazahstan-v-tehnologii (дата обращения: 11.11.2022).

31 Указ Президента Республики Казахстан от 15 февраля 2018 года «Об утверждении Национального плана развития Республики Казахстан до 2025 года и признании утратившими силу некоторых указов Президента Республики Казахстан» [Электронный ресурс] /https://adilet.zan.kz/rus/docs/U1800000636.

 

Концепция развития отрасли информационно-коммуникационных технологий и цифровой сферы32 задает безопасный режим развития новых технологий. В ней отмечается, что одним из важных законодательных процессов в части развития инновационной деятельности считается разработка правового поля для создания «регуляторной песочницы» в стране в целях устранения правовых барьеров для тестовой реализации перспективных инициатив частного и государственного секторов в сфере ИИ, а также целостной инфраструктуры данных и аналитических платформ на основе ИИ. При этом особый акцент в этом документе делается на том, что «будут созданы законодательные условия внедрения национальной «регуляторной песочницы», позволяющей инновационным компаниям протестировать новые продукты, услуги и технологии без риска нарушения действующего законодательства».

Современные интеллектуальные системы позволяют принципиально расширить возможности поиска, анализа и использования правовой информации [2, 44].

Уже сейчас с использованием подобных систем можно находить системные связи на этапе рассмотрения законопроектов и определять, какие законы и подзаконные акты и в какой степени потребуют изменения при внедрении данного законопроекта. Самое главное, что с помощью компьютерного моделирования можно определять, будут ли принимаемые законы достигать заявленных целей, как они будут работать с учетом политических, правовых, экономических, социальных, ментальных и других факторов [2, С. 45].

Можно предположить, что для решения подобных задач, например, посредством внедрения в законотворческий процесс и систематизирования права методов искусственного интеллекта, в их основе должны лежать принцип социальной справедливости, обеспечивающий приоритет защиты прав человека в процессе нормативного правового регулирования, так как развитие информационно-технических объектов, несмотря на очевидную пользу, несет в себе и угрозу [3, 103].

Например, некоторые понятия, кажущиеся простыми для человеческого восприятия, порой весьма проблематично внести в «мозг» искусственного интеллекта.

Делегирование умным машинам даже самых элементарных операций, например, по ускоренному сбору и алгоритмической обработке информации, открывают ящик Пандоры [4, 90] и может обернуться колонизацией человека. Вместо ожидаемого упрощения жизни и получения разного рода привилегий, искусственный интеллект и агрегированные с ним технологии списывают со счетов тех, кто не выдерживает конкуренции с роботами-советчиками, киборгами, ИИ-ассистентами. Не исключены риски и угрозы, касающиеся действия апгрейдов на основании ценностей, которые человеческие существа не разделяют [5, 11].

__________________________

32 Постановление Правительства Республики Казахстан от 30 декабря 2021 года № 961 [Электронный ресурс] /https://adilet.zan.kz/rus/docs/P2100000961/history.

 

В текущий момент особые надежды возлагаются на применение «умных» технологий в нормотворчестве. От них ожидается сокращение сроков подготовки нормативных правовых актов, оптимизация процессуальной составляющей нормотворческой деятельности, отдельных стадий и нормотворческого процесса в целом.

Одновременно с преимуществами, чрезмерная информатизация может оказывать негативное воздействие на нормотворчество, проводить к нежелательному и не всегда предсказуемым последствиям. Это обратная сторона технологической оснащенности. При переходе к созданию робото-норм с правового регулирования не снимаются сложнейшие задачи по нахождению баланса между публичными, общественными и частными интересами, что вряд ли под силу даже самым продвинутым, передовым технологиям. Наряду с такими привилегиями, как ускоренное производство нормотворческих и законотворческих решений, механизация и полная автоматизация тех действий, которые прежде производились вручную, нормотворчество должно получить шанс реализации прогностической миссии, связанной с опережающим характером правового воздействия на общественные отношения. Если до определенного времени задача нормотворца заключалась преимущественно в познании общественных потребностей, то сейчас одного этого уже становится недостаточно. Важно понимать, что весьма ошибочно пытаться регулировать нынешние настоящие общественные отношения сегодня. Нужно «работать» на будущее, на перспективу.

Применение технологии искусственного интеллекта может создавать предпосылки для параллельного регулирования одних и тех же общественных отношений разными нормативными правовыми актами и как следствие, правовой избыточности.

Каждый следующий шаг в направлении машинизации и интеллектуальной алгоритмизации любого вида юридической деятельности должен быть взвешенным, осторожным и осмотрительным. Это в особенной степени касается нормотворчества. Нельзя допустить, чтобы автоматизированные сущности заменили собой место привычных социальных регуляторов, а эксплуатация интеллектуальных технологий привела к формализации и стандартизации тех творческих функций, которые можно доверить исключительно человеческому интеллекту.

 

Список использованных источников:

1. Соколова С.Н. Искусственный интеллект и безопасность общества // /Электронный ресурс/ http://cyberlinka.ru/article/n/iskusstvennyy-intellekt-i-bezopasnost-obschestva

2. Долматов А.В. Долматова Л.А. Возможности и перспективы применения технологий искусственного интеллекта в юриспруденции // Вестник С.-Петерб. Юрид. Акад. 2020. № 1.

3. Кудашкин А.В., Бунин К.А. Цифровизация делопроизводства военных организаций как необходимый элемент информатизации личного состава будущего // Право в Вооруженных силах. 2019. № 5.

4. Сурков В. Безлюдная демократия и другие политические чудеса 2021 / В. Сурков /Электронный ресурс/ https ://actualcomment.ru/bezlyudnaya-demokratiya-i-drugie-politicheskie-chudesa-2121-

5. Злебников Г.В. Философия информации: Н. Виннер, Т. Байнам (аналитический обзор) / Г.В. Хлебников // Социальные и гуманитарные науки. Отечественная и зарубежная литература. - Сер. 3. Философфия: Реферативный журнал.- 2011.- № 2.

 

 

ЗАЩИТА ДАННЫХ И КОНФИДЕНЦИАЛЬНОСТЬ ПО ЗАКОНОДАТЕЛЬСТВУ РЕСПУБЛИКИ КАЗАХСТАН

 

Омарова Ботагоз Аким гереевна

Ведущий научный сотрудник

Института законодательства и

правовой информации Республики Казахстан,

старший юрист ТОО «Азизов и Партнеры», к.ю.н.

 

Введение

Современные информационные технологии создали условия для сбора и систематизации больших объемов структурированной и неструктурированной информации, в том числе связанной с личной жизнью граждан, до беспрецедентных размеров, что связано с появлением и развитием Интернета, электронной коммерции, поисковых сервисов, социальных сетей, а также повсеместным распространением смартфонов и планшетов.

Несмотря на сравнительную эффективность положений законодательства о персональных данных и их защите применительно к устоявшимся методам обработки массивов данных, технологии больших данных несовместимы с рядом базовых принципов, лежащих в основе законодательства о персональных данных и их защите, что обуславливает необходимость пересмотра данной отрасли законодательства.

В этой связи в последние годы, начиная с 2020 года в Казахстане усиливают защиту персональных данных и контроль за их безопасностью. В соответствующее законодательство о персональных данных неоднократно вносились изменения и дополнения, были расширены обязательства собственников, операторов и третьих лиц при сборе и обработке личных данных. Так, например, если раньше каждая компания могла разработать собственную форму согласие на сбор и обработку персональных данных, то теперь в законе прописаны обязательные требования к такой форме. Если разработанная компанией форма согласия не соответствует требованиям законодательства, то ее необходимо привести в соответствие, чтобы исключить риск несоответствия нормам законодательства. Одним из последних изменений было требование об утверждении внутреннего документа, определяющие политику оператора в отношении сбора, обработки и защиты персональных данных. Кроме того, существует судебная практика по привлечению в ответственности за нарушение норм законодательства в сфере персональных данных.

В данной главе будут рассмотрены нормы национального законодательства по защите персональных данных, базовые права и принципы неприкосновенности частной жизни и меры, направленные на их защиту.

 

1. Конституционная защита для передачи и защиты данных

Конституция Республики Казахстан принята на республиканском референдуме 30 августа 1995 год и является Основным законом Республики Казахстан. Конституция имеет высшую юридическую силу, прямое действие и применяется на всей территории Республики Казахстан. Все законы и иные правовые акты не должны противоречить Конституции. Применительно к институту персональных данных Конституция выступает основным гарантом реализации правовых норм, его составляющих, и соблюдения прав граждан в процессе их реализации.

Согласно статье 18 Конституции Республики Казахстан, каждый имеет право на неприкосновенность частной жизни, личную и семейную тайну, защиту своей чести и достоинства. Каждый имеет право на тайну личных вкладов и сбережений, переписки, телефонных переговоров, почтовых, телеграфных и иных сообщений. Ограничения этого права допускаются только в случаях и в порядке, прямо установленных законом.

Под правом человека и гражданина на личную неприкосновенность понимается закрепленное в Конституции и законодательстве Республики субъективное право каждого человека на всемерную защиту со стороны государства не только физической, психической и духовной жизни индивида, но и тех условий, которые создают ему возможность беспрепятственно пользоваться своими благами для реализации личных потребностей, если это не противоречит интересам индивида, общества и государства.

Неприкосновенность частной жизни, личная и семейная тайна охраняются Конституцией и законами Республики Казахстан. Такой охране подлежат сведения о человеке, дающие оценку его характеру, облику, здоровью, материальному состоянию, семейному положению, образу жизни, отдельным фактам биографии33.

Неприкосновенность частной жизни, личная и семейная тайна гарантируются рядом норм отраслевого законодательства. Так, значительная часть гарантий рассматриваемых конституционных прав содержится в отраслевом законодательстве, например, положения о недопустимости сбора, хранения, использования и распространения информации о частной жизни лица без его согласия, регулируются отраслевым законом о персональных данных и их защите, об информатизации и рядом подзаконных нормативных актами, которые способствуют созданию такого правового режима, при котором нарушение неприкосновенности частной жизни оказывается затруднительным или невыгодным.

 

2. Законодательные рамки для передачи и защиты данных

Законодательство Республики Казахстан о персональных данных и их защите основывается на Конституции Республики Казахстан и состоит из законодательных и подзаконных нормативных правовых актов Республики Казахстан. Если международным договором, ратифицированным Республикой Казахстан, установлены иные правила, чем те, которые содержатся в национальном законодательстве, то применяются правила международного договора.